xAI di Elon Musk afferma che "una modifica non autorizzata" ha spinto Grok a sbandierare la teoria del complotto sul genocidio bianco

Mercoledì, Grok, lo strumento di intelligenza artificiale di Elon Musk, ha dato di matto, rispondendo a domande innocue su X con informazioni sul " genocidio bianco " in Sudafrica. È stato un errore confuso e a tratti esilarante , ma ora abbiamo alcune risposte su quanto accaduto grazie a xAI. E, francamente, ci lasciano solo con più domande.
Giovedì sera xAI ha pubblicato un tweet in cui esponeva la sua spiegazione, inclusa l'ora esatta in cui sono state apportate modifiche a Grok che lo hanno portato a sfornare frasi sul "genocidio bianco" indipendentemente dalle domande degli utenti.
"Il 14 maggio, alle 3:15 PST circa, è stata apportata una modifica non autorizzata al prompt del bot di risposta Grok su X", ha scritto xAI. "Questa modifica, che richiedeva a Grok di fornire una risposta specifica su un argomento politico, violava le politiche interne e i valori fondamentali di xAI. Abbiamo condotto un'indagine approfondita e stiamo implementando misure per migliorare la trasparenza e l'affidabilità di Grok".
Noterete che xAI, di proprietà di Elon Musk, suggerisce fortemente che ci sia stato un attore interno ad apportare questa "modifica non autorizzata", ma non usa il linguaggio che ci si aspetterebbe se si trattasse di un dipendente dell'azienda. E immaginiamo che questo possa avere a che fare con il fatto che non si trattasse necessariamente di un dipendente, ma del proprietario.
Musk è da tempo ossessionato dalla teoria del complotto del "genocidio bianco", ovvero l'idea che i bianchi vengano uccisi in tutto il mondo da persone non bianche. Questa teoria del complotto include spesso elementi di antisemitismo ed è simile alla cosiddetta teoria del complotto della Grande Sostituzione, secondo cui le élite globali stanno cercando di sostituire i bianchi con altre etnie nei paesi ricchi di tutto il mondo. Musk è particolarmente interessato al presunto "genocidio bianco" in corso in Sudafrica, il paese in cui è nato e cresciuto prima di emigrare in Canada e poi negli Stati Uniti, e ha condiviso tweet in cui insiste sul fatto che i contadini bianchi vengono massacrati per la loro razza.
Il giorno prima che Grok iniziasse a comportarsi in modo strano, Musk aveva twittato un post sul Sudafrica che conteneva informazioni errate. La persona che Musk stava twittando aveva pubblicato un video che mostrava una strada in Sudafrica dove centinaia di croci bianche erano state piazzate su ogni lato. Il poster sosteneva che ogni croce rappresentasse un contadino bianco assassinato.
"Ogni croce rappresenta un contadino bianco assassinato in Sudafrica", ha scritto il dott. Maalof nel suo resoconto. "E alcuni negano ancora che i sudafricani/boeri bianchi siano perseguitati e affermano che non meritano asilo perché sono bianchi".
Musk ha condiviso il tweet con " Così tante croci", e naturalmente un gruppo di utenti X ha chiesto a Grok se fosse vero. Grok ha risposto che le croci si chiamavano Monumento a Witkruis e che ogni croce rappresentava in realtà contadini di qualsiasi etnia che erano stati uccisi. Il giorno dopo, la gente ha iniziato a notare che Grok si comportava in modo strano, rispondendo a domande non pertinenti con informazioni sul genocidio bianco.
Le modifiche a Grok sono state apportate alle 3:15 PT (6:15 ET), il che ha dato origine a battute giovedì sera su quanto Musk resti sveglio fino a tardi ogni notte. Il miliardario twitta spesso a qualsiasi ora, ma non è necessario presumere che Musk sia stato sveglio fino a tardi per pensare che possa essere lui il responsabile della modifica a Grok. L'oligarca miliardario si trova attualmente in Medio Oriente con il presidente Donald Trump, per incontrare i leader mondiali. Il fuso orario del Qatar è 10 ore avanti rispetto al fuso orario del Pacifico, il che significa che erano le 13:15 in Qatar quando è avvenuta la modifica.
Elon's Jet, l'account del social media che traccia l'aereo di Musk e che è stato bannato da X, mostra che il miliardario stava per atterrare a Doha mentre tutto questo accadeva.
Per essere chiari, non abbiamo prove del coinvolgimento di Musk. È del tutto possibile che alcuni dipendenti di xAI abbiano visto Musk sottoposto a verifica dei fatti da Grok sul genocidio bianco e abbiano voluto sbilanciare l'IA a favore del loro capo. Ma Musk è noto per modificare i suoi prodotti per soddisfare le proprie esigenze e sentirsi meglio. C'è una storia tristemente nota, riportata per la prima volta da Platformer nel 2023 , in cui Musk si è arrabbiato moltissimo perché il tweet del presidente Joe Biden al Super Bowl aveva ottenuto più "Mi piace" e visualizzazioni di quello di Musk.
Il tweet di Biden sul Super Bowl ha ricevuto 29 milioni di visualizzazioni e quello di Musk solo 9 milioni, spingendo Musk a tornare alla sede centrale di Twitter a San Francisco per chiedere modifiche all'algoritmo. Queste modifiche hanno fatto sì che gli utenti di X vedessero un'ondata di tweet di Musk. Non era una cosa subdola.
Immaginiamo che sia successo qualcosa di simile qui. Giovedì sera xAI ha scritto che avrebbe iniziato a pubblicare i prompt di sistema su Github nel tentativo di essere più trasparente e di " istituire un team di monitoraggio attivo 24 ore su 24, 7 giorni su 7 per rispondere agli incidenti con le risposte di Grok che non vengono rilevate dai sistemi automatizzati, in modo da poter intervenire più rapidamente se tutte le altre misure falliscono". Questo, ovviamente, fa sembrare che si tratti di un problema di automazione piuttosto che di un bambinone insicuro che armeggia con il suo giocattolo multimilionario per sentirsi meglio. Ma qualunque cosa abbiano da dirsi.
In breve? Questi sistemi sono intrinsecamente influenzati dal modo in cui vengono addestrati. E sono anche incredibilmente difficili da manipolare con precisione, dato il funzionamento dei grandi modelli linguistici. Grok è essenzialmente solo una sofisticata macchina di testo predittivo. E finché Musk avrà il controllo degli strumenti per plasmare l'opinione pubblica, continuerà a usarli, purtroppo per scopi fascisti .
gizmodo